AI资讯新闻榜单内容搜索-Mistral

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Mistral
32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

刚刚,Mistral AI 的模型又更新了。 这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。

来自主题: AI资讯
6134 点击    2024-03-24 21:39
估值飙升,Mistral AI成微软第二条“大腿”

估值飙升,Mistral AI成微软第二条“大腿”

估值飙升,Mistral AI成微软第二条“大腿”

2月26日,总部位于巴黎的人工智能公司Mistral AI发布尖端文本生成模型Mistral Large。该模型达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。

来自主题: AI资讯
3833 点击    2024-02-28 16:22
揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

2023年,有超过10家AI初创公司接受了传统科技巨头的大额投资,不断建立并且强化了微软—OpenAI式的合作关系,甚至引发了英美两国的监管机构的关注。

来自主题: AI资讯
10018 点击    2024-01-16 10:56
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。

来自主题: AI技术研报
5002 点击    2024-01-01 11:08
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

来自主题: AI资讯
8951 点击    2023-12-10 14:35